神经网络中如何确定隐藏层的层数和大小 |
您所在的位置:网站首页 › 神经网络 隐藏层 › 神经网络中如何确定隐藏层的层数和大小 |
在前馈神经网络中,隐藏层的数量和层数的确定尚无依据,一般是由经验决定。 查阅了大量相关的文章之后我对其进行了综合梳理。 这里需要明确的一点是,这些只是根据经验提出的一些参考的方法,具体的层数和大小还是要在实际实验中进行验证。 在此之前我们还需要理解一点,就是当我们神经元足够多,隐藏层足够多的时候我们甚至能完美拟合所有的点,但是也会带来过拟合的问题。因此我们要把握一个适中的度。 二分类问题方法出自:Beginners Ask “How Many Hidden Layers/Neurons to Use in Artificial Neural Networks?”^[Beginners Ask “How Many Hidden Layers/Neurons to Use in Artificial Neural Networks?”] 对于二分类比较好理解。但是我对这个方法持保留态度。 先看下边这两类,我们只需要一条斜线就可以完成映射。所以不需要隐藏层,直接input到output即可。
以此类推,第一个隐藏层学到单方向的直线,第二个隐藏层将两条线拼接,以此类推直到最后都拼接起来。
但是对于这个我存在一个疑问,二分类问题本来就很简单了,需要那么多层隐藏层吗?我觉得根本没必要那么多层隐藏层。 虽然从理论上说,层数越多拟合函数越强,但是实际上更深的层数可能会带来过拟合的问题,同时也会增加训练难度,使模型难以收敛。 隐藏层数量从上边我们可以得到一个结论:在神经网络中,当数据需要非线性分离的时候才需要隐藏层。 什么是线性?
对于隐藏层的层数我找到一个说法: Table: Determining the Number of Hidden Layers^[Heaton Research: The Number of Hidden Layers] Num Hidden Layers Result none Only capable of representing linear separable functions or decisions. 1 Can approximate any function that contains a continuous mapping from one finite space to another. 2 Can represent an arbitrary decision boundary to arbitrary accuracy with rational activation functions and can approximate any smooth mapping to any accuracy. >2 Additional layers can learn complex representations (sort of automatic feature engineering) for layer layers.翻译过来就是: 没有隐藏层:仅能表示线性可分离函数或决策。 1 可以近似任何包含从一个有限空间到另一个有限空间的连续映射的函数。 2 可以使用有理激活函数将任意决策边界表示为任意精度,并且可以将任何平滑映射近似到任何精度。 >2 可以学习的复杂特征。 多分类如果二分类可以按照上述方法进行计算,那多分类如何搞? 现在比较常见的方法是根据输入层和输出层的大小进行估算。 现在假设: 输入层大小为$n$ 输出层分为$m$类 样本数量为$s$ 一个常数$c$常见的观点有隐藏层数量$h$: $h = \frac{s}{c(n+m)} \quad c \in [2,10]$ $h = \sqrt{n+m} + c \quad c \in [1,10]$ $h = \sqrt{nm}$ $h = \log_2n$ $h = 1.5*n$ $h = 1.5*(n+m)$ $h |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |